Como as vozes mais altas da IA passaram de "regular-nos" para "libertar-nos"

Em 16 de maio de 2023, Sam Altman compareceu perante uma subcomissão do Judiciário do Senado. O título da audiência foi "Supervisão da IA". A sessão foi um festival de amor, com Altman e os senadores celebrando o que Altman chamou de "momento de imprensa" da IA — e reconhecendo que os EUA precisavam de leis fortes para evitar suas armadilhas. "Acreditamos que a intervenção regulatória dos governos será crucial para mitigar os riscos de modelos cada vez mais poderosos", disse ele. Os legisladores se apegaram a cada palavra de Altman enquanto ele falava com entusiasmo sobre como leis inteligentes poderiam permitir o florescimento da IA — mas apenas dentro de diretrizes firmes que tanto os legisladores quanto os desenvolvedores de IA consideravam vitais naquele momento. Altman falava pela indústria, que compartilhava amplamente sua atitude. O grito de guerra era "Regular-nos!"
Dois anos depois, em 8 de maio deste ano, Altman estava novamente diante de outro grupo de senadores. Os senadores e Altman ainda cantavam a mesma música, mas uma delas foi retirada de uma playlist diferente. Essa audiência foi chamada de "Vencendo a Corrida da IA". Em Washington, D.C., a palavra "supervisão" caiu em desuso, e o discurso sobre IA não é exceção. Em vez de defender que órgãos externos examinem modelos de IA para avaliar riscos, ou que plataformas alertem as pessoas quando estiverem interagindo com IA, o presidente da comissão, Ted Cruz, defendeu um caminho em que o governo não apenas fomentaria a inovação, mas também removeria barreiras como o "excesso de regulamentação". Altman concordou com isso. Sua mensagem não era mais "me regule", mas "invista em mim". Ele disse que o excesso de regulamentação — como as regras adotadas pela União Europeia ou um projeto de lei recentemente vetado na Califórnia — seria "desastroso". "Precisamos de espaço para inovar e agir rapidamente", disse ele. Guardas de segurança podem ser necessárias, afirmou ele, mas precisam envolver “regulamentação sensata que não nos atrase”.
O que aconteceu? Para começar, o momento de pânico logo após todos se assustarem com o ChatGPT passou e ficou claro que o Congresso não agiria rapidamente em relação à IA. Mas o maior acontecimento foi que Donald Trump retomou a Casa Branca e freou o tom sutil e pró-regulamentação do governo Biden. A doutrina de Trump sobre a regulamentação da IA parece suspeitamente próxima à de seu apoiador, Marc Andreessen, que declarou em seu Manifesto do Otimismo Tecnológico que a regulamentação da IA era literalmente uma forma de assassinato porque "qualquer desaceleração da IA custará vidas". O vice-presidente JD Vance tornou essas prioridades explícitas em um encontro internacional realizado em Paris em fevereiro. "Não estou aqui... para falar sobre segurança da IA, que era o título da conferência alguns anos atrás", disse ele. "Acreditamos que a regulamentação excessiva do setor de IA pode matar uma indústria transformadora justamente quando ela está decolando, e faremos todos os esforços para incentivar políticas de IA pró-crescimento." Mais tarde, o governo revelou um Plano de Ação de IA “para melhorar a posição dos Estados Unidos como uma potência em IA e evitar que requisitos desnecessariamente onerosos atrapalhem a inovação do setor privado”.
Dois inimigos surgiram nesse movimento. O primeiro é a União Europeia, que adotou um regime regulatório que exige transparência e responsabilização das principais empresas de IA. A Casa Branca despreza essa abordagem, assim como aqueles que criam negócios de IA nos EUA.
Mas o maior bicho-papão é a China. A perspectiva de a República Popular superar os EUA na "Corrida da IA" é tão impensável que a regulamentação deve ser posta de lado, ou feita com o que Altman e Cruz descreveram como um "toque leve". Parte desse raciocínio vem de uma teoria conhecida como "decolagem dura", que postula que os modelos de IA podem atingir um ponto crítico onde o autoaperfeiçoamento rápido como um raio lança um giro estonteante de supercapacidade, também conhecido como AGI. "Se você chegar lá primeiro, seu covarde, eu não vou conseguir te pegar", diz o ex-CEO do Google Eric Schmidt , com o "você" sendo um concorrente (Schmidt estava falando sobre o status da China como líder em código aberto). Schmidt é uma das vozes mais altas alertando sobre esse possível futuro. Mas a Casa Branca provavelmente está menos interessada na Singularidade do que na competição econômica clássica.
O medo de que a China avance na IA é o principal impulsionador da atual política americana, que se dane a segurança. A linha partidária se opõe até mesmo a estados individuais que tentam preencher o vácuo da inação com suas próprias leis. A versão do megaprojeto de lei que concede incentivos fiscais e corta o Medicaid, recentemente aprovada pela Câmara, incluía uma moratória obrigatória de 10 anos em qualquer legislação estadual sobre IA. Isso é como uma eternidade em termos de progresso da IA. (Especialistas dizem que essa disposição não sobreviverá a alguma oposição no Senado, mas vale ressaltar que quase todos os republicanos na Câmara votaram a favor.)
Não é de se surpreender que o mundo Trump tenha rejeitado a regulamentação e adotado uma postura chauvinista em relação à IA. Mas o que aconteceu com o apetite aparentemente genuíno do setor por regras que garantam que os produtos de IA não se descontrolem? Entrei em contato com várias das principais empresas de IA esta semana e me indicaram blogs publicados e transcrições de discursos e depoimentos públicos, mas nenhum executivo se pronunciou sobre o assunto. (Para ser justo, não lhes dei muito tempo.)
Um exemplo típico desses materiais foi o blog de políticas da OpenAI. Ele pede "liberdade para inovar", o que significa, muito provavelmente, a ausência de leis onerosas; controles rigorosos de exportação; e um pedido oportunista de "liberdade para aprender". Trata-se de um pedido eufemístico para que o Congresso redefina a propriedade intelectual como "uso justo", para que a OpenAI e outras empresas possam treinar seus modelos com materiais protegidos por direitos autorais — sem compensar os criadores. A Microsoft também está pedindo essa bonança. (Aviso: faço parte do conselho da Authors Guild, que está processando a OpenAI e a Microsoft pelo uso de livros protegidos por direitos autorais como materiais de treinamento. As opiniões expressas aqui são minhas.)
O grupo regulador "light-touch" (ou "no-touch") tem um excelente argumento a apresentar: ninguém sabe ao certo como elaborar leis que previnam os piores perigos da IA sem desacelerar o ritmo da inovação. Mas, além de evitar riscos catastróficos, existem muitas outras áreas em que a regulamentação da IA não introduziria obstáculos à pesquisa. Essas incluem a proibição de certos tipos de vigilância por IA, deepfakes e discriminação; informar claramente as pessoas quando elas estão interagindo com robôs; e exigir padrões mais elevados para proteger dados pessoais em sistemas de IA. (Admito que trapaceei ao elaborar essa lista — não usando o ChatGPT, mas me baseando nos tipos de danos à IA que a Câmara dos Representantes não permitiria que os estados regulassem.)
A pressão pública, ou algum exemplo espetacular de uso indevido, pode levar o Congresso a abordar essas questões de IA em algum momento. Mas o que permanece para mim é a reviravolta de dois anos atrás, quando sérias preocupações com riscos catastróficos dominavam as conversas no mundo da IA. A exceção gritante a isso é a Anthropic, que ainda não se moveu de uma postagem de blog no final de outubro — poucos dias antes da eleição presidencial — que não apenas pedia regulamentação eficaz para "reduzir riscos catastróficos", mas praticamente propunha o fim dos tempos se não o fizéssemos logo. "Os governos devem tomar medidas urgentes sobre a política de IA nos próximos dezoito meses", dizia em negrito. "A janela para a prevenção proativa de riscos está se fechando rapidamente."
Neste ambiente, praticamente não há chance de a Anthropic realizar seu desejo. Talvez isso não importe: pode ser que os temores de um apocalipse da IA sejam exagerados. Observe, porém, que os líderes de praticamente todas as grandes empresas de IA preveem que, em poucos anos, alcançaremos a inteligência artificial geral. Quando pressionados, eles também admitirão que controlar a IA, ou mesmo entender como ela funciona, é um trabalho em andamento. No entanto, o foco agora está em acelerar o avanço para uma IA mais poderosa — supostamente para superar a China.
Os chineses deixaram claro que não querem se reportar aos senhores robôs, assim como nós. O principal rival geopolítico dos Estados Unidos também demonstrou interesse em impor padrões de segurança rigorosos. Mas se os Estados Unidos insistirem em ignorar as barreiras e seguir a todo vapor rumo a um futuro que não podem conter, nosso maior concorrente não terá escolha a não ser fazer o mesmo. Que vença a melhor decolagem rápida.
wired